3 - Convolutional Neural Networks (CNNs) [ID:58842]
50 von 161 angezeigt

Wir haben die sehr basierte Konzeption des Lernens verwendet

also das Modell für die Perzeption

wie man Perzeptionen in Läder und Läder in eine fadige Neuronetwork kombiniert.

Jetzt sprechen wir über eine mehr fadige Architektur der Neuronetwork,

die ein paar speziellen und sehr interessanten Fähigkeiten hat.

Ich spreche hier über konvolutionelle Neuronetwork.

Sie kommen von der Beobachtung des menschlichen Visuelkortex.

Im Spektrum der Visuelkortex verwendet man die visuelle Information

die von der Retina aus ausgerichtet wird

in eine hierarchische Weise.

Und insbesondere die rezeptive Fähigkeiten der kortischen Neuronen

erhöhen, desto später sind sie in dieser Hierarchie.

Wir haben kleine rezeptive Fähigkeiten

die von hohen speziellen Frequenzen stimuliert werden.

Sie werden von feinen Details stimuliert.

Und wir haben große rezeptive Fähigkeiten, die höher in der Hierarchie sind,

die von hohen speziellen Frequenzen stimuliert werden,

also von kornigen Details in der Image.

Lass uns bereits ein bisschen besser die Unterschiede zwischen CNNs und

vollkommandierten Netzwerken

die wir gerade so gelernt haben in der vorherigen Sektion.

In der Standard Multi-Layer Perceptron sind die Lager vollkommandiert

das bedeutet

dass alle Uniten von einem Lager

die in den nächsten Lager verbunden sind

wie hier auf der rechten Seite beschrieben wird.

Von jedem Input haben wir ein HRO, das diese zu dem Output-Unit verbindet.

Aber für kortische Neuronen und die Neuronen

die wir mit Konvolution der Netze verbreiten wollen

haben sie kleine Rezeptive Fähigkeiten.

Und die Uniten aus dem Input-Lager haben nur eine gesparte und lokalisierte Verbindung mit den Uniten aus dem höheren Level

aus dem vorherigen Level.

Und dies ist modelliert durch die konkrete Konvolution der Neuronen.

Warum Konvolution?

Also, Konvolution, diese Terminologie kommt aus Math.

In Math haben wir die Operation der kontinuierlichen Konvolution.

Es ist eine Operation zwischen zwei Funktionen f und g.

Wir haben sie mit einem Star-Symbol genannt und es produziert eine dritte Funktion,

die als die Integrale über den Domain der realen Nummern aus dem Produkt von f und g ausgeliefert wird

die mit einem bestimmten Delay-Tau ausgeliefert wird.

Und hier seht ihr die Formulation

die eigentlich mit einer Funktion über die andere Funktion ausgeliefert wird

in der Temporal-Dimension.

In Deep Learning

was wir benutzen

um Konvolution zu bauen

ist eine diskrete Version dieser Operation.

Mal sehen, wie wir sie definieren.

Die diskrete Konvolution ist eine mathematische Operation von zwei Funktionen.

In unserem Falle produziert die Input und ein kleiner Filter eine dritte Funktion

Teil eines Kapitels:
DL for Time Series

Presenters

Zugänglich über

Offener Zugang

Dauer

00:10:55 Min

Aufnahmedatum

2025-10-07

Hochgeladen am

2025-10-07 14:25:06

Sprache

en-US

We introduce CNNs and discuss their application to time series data